Score-based diffusion models have captured widespread attention and funded fast progress of recent vision generative tasks. In this paper, we focus on diffusion model backbone which has been much neglected before. We systematically explore vision Transformers as diffusion learners for various generative tasks. With our improvements the performance of vanilla ViT-based backbone (IU-ViT) is boosted to be on par with traditional U-Net-based methods. We further provide a hypothesis on the implication of disentangling the generative backbone as an encoder-decoder structure and show proof-of-concept experiments verifying the effectiveness of a stronger encoder for generative tasks with ASymmetriC ENcoder Decoder (ASCEND). Our improvements achieve competitive results on CIFAR-10, CelebA, LSUN, CUB Bird and large-resolution text-to-image tasks. To the best of our knowledge, we are the first to successfully train a single diffusion model on text-to-image task beyond 64x64 resolution. We hope this will motivate people to rethink the modeling choices and the training pipelines for diffusion-based generative models.
translated by 谷歌翻译
本文介绍了Speakin团队提交的SPEAKER验证(SV)系统,该系统针对2022年远场演讲者验证挑战(FFSVC2022)的任务2和任务2。挑战的SV任务集中在完全监督的远场演讲者验证(任务1)和半监督远场扬声器验证(任务2)的问题上。在任务1中,我们将Voxceleb和FFSVC2020数据集用作火车数据集。对于任务2,我们仅将Voxceleb数据集用作火车集。为此挑战开发了基于重新连接和基于REPVGG的架构。全局统计池结构和MQMHA池结构用于跨时间汇总框架级特征,以获得语音级别的表示。我们采用了Am-Softmax和Aam-Softmax来对产生的嵌入进行分类。我们创新提出了一种分阶段的转移学习方法。在训练阶段,我们保留扬声器的权重,并且在此阶段没有积极的样本来训练它们。然后,我们在第二阶段用正面和负样品微调这些权重。与传统的转移学习策略相比,该策略可以更好地改善模型性能。亚均值和标志的后端方法用于解决域不匹配的问题。在融合阶段,任务1中融合了三个模型,并在任务2中融合了两个模型。在FFSVC2022排行榜上,我们提交的EER为3.0049%,在Task1中,相应的MindCF为0.2938。在任务2中,EER和MindCF分别为6.2060%和0.5232。我们的方法可以提高表现出色,并在两项挑战任务中排名第一。
translated by 谷歌翻译
本报告描述了我们针对CN-CELEB演讲者识别挑战2022(CNSRC 2022)任务的发言人验证系统。这项挑战包括两项任务,即演讲者验证(SV)和说话者检索(SR)。 SV任务涉及两个轨道:固定轨道和开放轨道。在固定轨道中,我们仅使用CN-CELEB.T作为训练集。对于SV任务和SR任务的开放轨道,我们添加了开源音频数据。为此挑战开发了基于重新连接的基于RESNET,基于REPVGG和基于TDNN的架构。全局统计池结构和MQMHA池结构用于跨时间汇总框架级特征,以获得语音级别的表示。我们采用了Am-Softmax和Aam-Softmax与子中心方法相结合,以对所得的嵌入进行分类。我们还使用了大规模细微调整策略来进一步提高模型性能。在后端,使用了亚均值和雅语。在SV任务固定轨道中,我们的系统是五个型号的融合,并且在SV任务打开轨道中融合了两个型号。我们在SR任务中使用了一个系统。我们的方法带来了卓越的性能,并成为SV任务的开放轨道,在SV任务的固定轨道中的第二名以及SR任务中的第三名。
translated by 谷歌翻译
提高强化学习样本效率的一种有希望的方法是基于模型的方法,其中在学习模型中可以进行许多探索和评估以节省现实世界样本。但是,当学习模型具有不可忽略的模型误差时,很难准确评估模型中的顺序步骤,从而限制了模型的利用率。本文建议通过引入多步计划来替换基于模型的RL的多步骤操作来减轻此问题。我们采用多步计划价值估计,该估计在执行给定状态的一系列操作计划后评估预期的折扣收益,并通过直接通过计划价值估计来直接计算多步策略梯度来更新策略。新的基于模型的强化学习算法MPPVE(基于模型的计划策略学习具有多步计划价值估计)显示了对学习模型的利用率更好,并且比基于ART模型的RL更好地实现了样本效率方法。
translated by 谷歌翻译
尖峰神经网络(SNN)是第三代人工神经网络,可以在神经形态硬件上实施节能。但是,尖峰的离散传播给坚固且高性能的学习机制带来了重大挑战。大多数现有的作品仅着眼于神经元之间的学习,但忽略了突触之间的影响,从而导致稳健性和准确性丧失。为了解决这个问题,我们通过对突触(APB)(APB)之间的关联可塑性(APB)进行建模,从而提出了一种强大而有效的学习机制。使用提出的APB方法,当其他神经元同时刺激时,同一神经元的突触通过共享因素相互作用。此外,我们提出了一种时空种植和翻转(STCF)方法,以提高网络的概括能力。广泛的实验表明,我们的方法在静态CIFAR-10数据集和神经形态MNIST-DV的最新性能上实现了卓越的性能,通过轻量级卷积网络,CIFAR10-DVS数据集。据我们所知,这是第一次探索突触之间的学习方法和神经形态数据的扩展方法。
translated by 谷歌翻译
事件摄像机在挑战场景中具有巨大的潜力,因为其高度分辨率,高动态范围,低功耗和无运动模糊的优势。但是,基于事件的学习受到不足的概括能力的阻碍。在本文中,我们首先分析不同亮度变化对事件数据的影响。然后,我们提出了两种新颖的增强方法:事件逆转和eventdrift。通过将事件逆转和漂移到时空或极性域中的相应位置,提出的方法会生成受不同亮度变化影响的样品,从而改善了基于事件的学习的鲁棒性,并导致更好的概括。N-CARS,N-Caltech101和CIFAR10-DVS数据集的广泛实验表明,我们的方法是一般且非常有效的。
translated by 谷歌翻译
现代有效的卷积神经网络(CNN)始终使用可分开的卷积(DSC)和神经体系结构搜索(NAS)来减少参数数量和计算复杂性。但是网络的一些固有特征被忽略了。受到可视化功能地图和n $ \ times $ n(n $> $ 1)卷积内核的启发,本文介绍了几种准则,以进一步提高参数效率和推理速度。基于这些准则,我们的参数有效的CNN体​​系结构称为\ textit {vgnetg},比以前的网络更高的准确性和延迟较低,降低了约30%$ \厚度$ 50%的参数。我们的VGNETG-1.0MP在ImageNet分类数据集上具有0.99万参数的67.7%TOP-1准确性和69.2%的TOP-1精度,而参数为114m。此外,我们证明边缘检测器可以通过用固定的边缘检测核代替N $ \ times $ n内核来代替可学习的深度卷积层来混合特征。我们的VGNETF-1.5MP存档64.4%( - 3.2%)的TOP-1准确性和66.2%(-1.4%)的TOP-1准确性,具有额外的高斯内核。
translated by 谷歌翻译
基于拉曼扩增的物理特征,我们提出了一个基于神经网络(NN)和线性回归的三步建模方案。与基于纯NN的方法相比,通过模拟证明了更高的精度,较少的数据需求和较低的计算复杂性。
translated by 谷歌翻译
离线增强学习(RL)将经典RL算法的范式扩展到纯粹从静态数据集中学习,而无需在学习过程中与基础环境进行交互。离线RL的一个关键挑战是政策培训的不稳定,这是由于离线数据的分布与学习政策的未结束的固定状态分配之间的不匹配引起的。为了避免分配不匹配的有害影响,我们将当前政策的未静置固定分配正规化在政策优化过程中的离线数据。此外,我们训练动力学模型既实施此正规化,又可以更好地估计当前策略的固定分布,从而减少了分布不匹配引起的错误。在各种连续控制的离线RL数据集中,我们的方法表示竞争性能,从而验证了我们的算法。该代码公开可用。
translated by 谷歌翻译
对象姿势预测的最新进展为机器人在导航期间构建对象级场景表示形式提供了有希望的途径。但是,当我们在新颖环境中部署机器人时,分发数据可能会降低预测性能。为了减轻域间隙,我们可以使用机器人捕获图像作为伪标签的预测在目标域中进行自我训练,以微调对象姿势估计器。不幸的是,姿势预测通常是折磨的,很难量化它们的不确定性,这可能会导致低质量的伪标记数据。为了解决这个问题,我们提出了一种猛烈支持的自我训练方法,利用机器人对3D场景几何形状的理解来增强对象姿势推断性能。将姿势预测与机器人探光仪相结合,我们制定并求解姿势图优化以完善对象姿势估计,并使伪标签在整个帧中更加一致。我们将姿势预测协方差纳入变量中,以自动建模其不确定性。这种自动协方差调整(ACT)过程可以在组件级别拟合6D姿势预测噪声,从而导致高质量的伪训练数据。我们在YCB视频数据集和实际机器人实验中使用深对象姿势估计器(DOPE)测试我们的方法。它在两种测试中的姿势预测中分别达到34.3%和17.8%的精度提高。我们的代码可在https://github.com/520xyxyzq/slam-super-6d上找到。
translated by 谷歌翻译